#AI 資料中心
資料中心背後民怨沸騰,微軟給馬斯克上了一課
在這波AI軍備競賽中,美國科技巨頭們爭先投入巨資,在各地興建動輒百億美元的資料中心。但與此同時,圍繞著資料中心所需規模龐大的電力與水資源,科技巨頭與社區民生之間的矛盾也在逐漸顯現,引發了當地居民的不滿與抵制。現在微軟交出了一個標準答案,展示了科技巨頭應該怎樣負責任地打造資料中心,實現科技創新與民生就業之間的雙贏。這一波,馬斯克跟不跟?不要補貼不要退稅昨天,微軟總裁布萊德·史密斯(Brad Smith)正式發佈了名為“社區優先AI基礎設施”的計畫,提出在興建資料中心時拒絕電力補貼,減少用水,不要退稅,解決就業,反饋社區等五點承諾。該計畫旨在讓微軟成為社區的“好鄰居”,確保AI基礎設施發展帶來的益處大於成本,並惠及當地居民。這家科技巨頭承諾,未來在建設和營運資料中心時,將確保:不會提高當地居民的電價,主動承擔因資料中心產生的額外電力成本,拒絕當地電價補貼;通過高效冷卻技術,儘可能減少用水量,投資當地水利系統,回饋比使用量更多的水資源;為當地居民切實創造就業機會;為當地醫院、學校、公園和圖書館增加稅收基礎,拒絕任何招商稅收減免;通過投資當地AI培訓和非營利組織來加強社區建設。史密斯在聲明中坦承:”事實是,只有當社區認為收益大於成本時,基礎設施建設才會推進。而我們正處於一個人們有很多顧慮的時刻。"他列舉了公眾對資料中心的擔憂:”他們擔心電價上漲,擔心影響他們的供水。他們看著這項技術,問它對未來的工作意味著什麼?對今天工作的成年人意味著什麼?對他們的孩子意味著什麼?"重要的是,微軟在幾個具體地區已經開始踐行這些承諾。在亞利桑那州,微軟與市政當局合作尋找和修復管道洩漏,幫助社區減少淡水損失。該公司還在該州和威斯康星州芒特普萊森特的資料中心試點閉環冷卻系統,有效地將水消耗降至零。微軟表示,將使零水冷卻成為其自有投資組合中的”主要冷卻方法"。微軟的承諾得到了美國總統的點贊。川普在社交媒體和公開場合表態稱,他不希望美國民眾為大型科技公司資料中心的電費上升埋單,強調科技巨頭應該為自身的能源消耗“買單”,而微軟是第一個響應號召的科技巨頭。微軟此舉在美國科技界引發了廣泛熱議。因為它觸及了一個日益嚴峻的社會問題:在AI軍備競賽的大環境下,科技巨頭們正在全美乃至全球範圍內大舉建設資料中心,但這些龐大的設施卻沒有給當地居民帶來相應的經濟收益,反而給社區民生帶來了沉重的資源負擔。資料中心熱潮下的社區困境要理解微軟為何做出這樣的承諾,需要先瞭解資料中心興建熱潮下,美國各地社區正在經歷的困境。美國科技巨頭正在進行史無前例的資料中心競賽,投資規模遠超此前預期。2025年,微軟、亞馬遜、Google和Meta四大巨頭的資本支出總額預計將高達4000億美元,其中四分之三直接用於AI基礎設施建設。而且這場軍備競賽還在加碼升級。根據CreditSights預測,五大超大規模雲服務商(加上甲骨文)今年總資本支出將超過6000億美元,較去年增長36%,較前年增長135%。高盛預計,從2025年到2027年,超大規模雲服務商的累計資本支出將達到1.15兆美元,是2022-2024年間的2.4倍。這種前所未有的投資規模已接近資本密集度的歷史極限。但另一方面,資料中心的電力消耗也以驚人速度增長,對美國能源系統構成前所未有的挑戰。根據國際能源署(IEA)和美國能源部勞倫斯伯克利國家實驗室的最新研究,2024年美國資料中心的總耗電量約為183太瓦時,佔全國總用電量的4.4%。隨著這波資料中心投資熱潮,預計2026年美國資料中心耗電量將超過250太瓦時,2030年更將達到400-426太瓦時,佔美國總用電量的6.7-12%。美國能源資訊署的報告預計,資料中心用電負載增長在過去十年中增長了兩倍,預計到2028年將再翻一番甚至兩番。在資料中心大幅推高電力需求的同時,美國的發電量增長卻並沒有顯著增長,這就帶來了潛在的居民用電危機。更令人擔憂的是電價的飆升。彭博社去年9月統計,在資料中心密集的地區,批發電價在五年內上漲了高達267%。而在全美範圍內,居民電費在2025年比前一年上漲了13%。美國國會議員去年12月致信七家科技公司,指責它們將數十億美元的基礎設施升級成本轉嫁給普通美國人。信中寫道:"我們寫這封信是因為有令人震驚的報導稱,科技公司正在將建設和營運資料中心的成本轉嫁給普通美國人,因為AI資料中心的能源使用導致附近社區的居民電費飆升。"水資源的消耗同樣令人憂慮。勞倫斯伯克利國家實驗室估計,2023年美國資料中心用於冷卻的水量達到6440萬噸,預計到2028年這一數字可能翻倍甚至翻兩番,達到1.29-2.58億噸。而用於發電的間接用水量更是高達7.99億噸,是直接用水量的12倍。休斯頓大學的研究發現,德克薩斯州的資料中心去年的耗水量可能高達1.85億噸,到2030年可能增至15.1億噸——這相當於將美國最大的水庫米德湖的水位在一年內降低5米以上。更令社區居民失望的是就業前景。雖然資料中心在建設期能創造大量建築工作崗位,但一旦投入營運,所需的長期員工數量極為有限。一個典型的大型資料中心可能只需要50到100名全職員工。亞利桑那州的殘酷現實美國亞利桑那州的情況最能說明問題的嚴峻性。鳳凰城地區因為相對寬鬆的環境和勞動政策、較低的電價、稅收優惠以及位於德克薩斯到南加州的主要光纖管道上等優勢,部署著約707兆瓦的IT容量,成為各大巨頭興建資料中心的首選之地。微軟、Google和Meta等公司都在該地區建有資料中心。然而,就在這些科技巨頭大量消耗資源的同時,附近幾十公里外納瓦霍保留地上的許多原住民卻仍然生活在沒有電力供應的環境中。《華盛頓郵報》一篇報導講述了亞利桑那資料中心附近的居民故事。原住民保留地卡梅倫(Cameron)是美國最大的無電力地區之一。這裡雖然有充沛的太陽能,卻因為地廣人稀,沒有企業願意投資興建發電站,也沒有供電網路。居住在這裡的1.5萬家庭似乎生活在上世紀,沒有空調,沒有冰箱,照明只能依靠太陽能等,長期依靠罐頭食品,因為在沙漠酷熱中,未冷藏的農產品很快就會腐爛。這種極端的資源不平等,與幾十英里外耗電量巨大的資料中心形成了鮮明對比。雖然科技巨頭們並沒有義務投資改善當地居民的生活水平,當地基礎設施落後也不是他們的責任,但資料中心巨大的耗電和耗水量,還是招致了當地居民的強烈不滿。在南部亞利桑那州,圖森和馬拉納兩個資料中心項目的審批過程引發了激烈的社區抗議。圖森市議會曾因擔心對城市水資源的壓力和環境影響,一致否決了Beale基礎設施公司的”藍色項目"資料中心提案。該項目原本需要使用水冷系統,每年需要消耗1300萬噸水,相當於2.5萬個家庭的用水量。這引發了當地居民的憤怒,因為當地本就嚴重缺水。在遭到否決後,Beale決定改用空氣冷卻,並與當地電力公司採購近300兆瓦的電力——足以為大約4.5萬個亞利桑那家庭供電。這又引發了當地居民關於電力短缺與電價上漲的擔憂。雖然Beale公司承諾帶來50億美元的資本投資、1.45億美元的城鎮稅收和4200個建築工作崗位。但反對者擔心,短期的建築工作和稅收收入,無法彌補長期的電價上漲和資源壓力。批評者認為,這種招商機遇是以社區長期福祉為代價的。馬斯克追求效率自造電廠如果說亞利桑那州的情況展現了資料中心與社區資源之間的緊張關係,那麼馬斯克的xAI公司在田納西州孟菲斯的做法,則將這種矛盾推向了極端。馬斯克為了加速其人工智慧超級電腦”巨像"(Colossus)的建設,採取了一系列非常規手段,甚至從海外購買整座發電廠運到美國。2024年9月,xAI在孟菲斯一座廢棄工廠啟動了超級計算中心。這台據稱是世界上最大的AI訓練平台,最初配備10萬個輝達GPU,三個月後擴展到20萬個,xAI計畫最終將其擴展到100萬個GPU。為了滿足巨大的電力需求,xAI向孟菲斯電力公司採購了150兆瓦的電力——足以為10萬個家庭供電。但150兆瓦的供電量遠遠不夠。在等待正式電網連接期間,xAI部署了超過40台可攜式天然氣渦輪機,總功率超過400兆瓦。南方環境法律中心指出,這些渦輪機每年排放1200至2000噸形成霧霾的氮氧化物,使該設施”可能成為孟菲斯最大的氮氧化物工業排放源"。田納西大學諾克斯維爾分校的研究人員發現,xAI開始營運後,設施周圍地區的二氧化氮峰值濃度增加了79%。更令人震驚的是,xAI在沒有獲得必要空氣許可的情況下就開始營運這些渦輪機。該公司利用了當地一個監管漏洞:允許臨時渦輪機在一個地點運行不到一年而無需許可證。2025年1月,在營運數月後,xAI才向謝爾比縣衛生部門申請15台渦輪機的許可證。在去年4月的公開聽證會上,生活在巨像設施附近的居民抱怨空氣質量問題,表示他們因生活在孟菲斯這個污染嚴重的地區而患有慢性呼吸系統疾病。一位女士說她聞到"除了正確的東西之外的一切,而正確的東西就是清潔的空氣"。這個設施位於孟菲斯西南部,這是一個以黑人社區和糟糕空氣而聞名的地區,周圍還有其他17個污染設施,包括煉油廠、鋼鐵廠和燃氣發電廠。孟菲斯反污染社區組織主席凱肖恩·皮爾森(KeShaun Pearson)說:”允許xAI在孟菲斯西南部持續損害我們肺部的持續政策暴力是不道德的。我們應該得到清潔的空氣,而不是無聲的窒息。"馬斯克在2025年7月證實,為了進一步擴張算力,xAI正在從海外購買一座完整的發電廠並運到孟菲斯,這是容量高達2吉瓦的天然氣聯合循環燃氣輪機發電廠。馬斯克表示,在美國建造這樣的設施需要太長時間,所以他選擇快速推進項目。去年年底,xAI又宣佈在密西西比州購買第三塊地用於資料中心,預計總計算能力將接近2吉瓦——用電量相當於150萬美國家庭。這體現了馬斯克一貫強調效率優先的風格。這種營運風格也讓他與監管嚴格、注重環保的加州民主黨政府產生嚴重矛盾,促使馬斯克在過去幾年將旗下幾乎所有公司的營運和投資都轉到德州、田納西州等監管寬鬆的共和黨紅州。其他科技巨頭的做法相比馬斯克的激進做法,亞馬遜、Google和Meta等科技巨頭雖然更加注重環保形象,但它們在資源消耗方面同樣引發了廣泛爭議。Google2023年在全球的營運消耗了約2420萬噸水,其中95%(約2310萬噸)被資料中心使用。該公司在愛荷華州康瑟爾布拉夫斯的資料中心2024年消耗了約378.5萬噸水,是其所有資料中心中用水量最多的。Meta的情況類似,2023年全球消耗約308萬噸水,其中95%(約294萬噸)用於資料中心。2021年,Meta的資料中心從全球範圍內抽取了約492萬噸水,其中約139萬噸來自水資源嚴重緊張的地區。這些公司都設定了到2030年實現"水正效益"的目標,即通過在其他地區投資流域恢復和清潔水項目,回饋與使用量相當的水資源。但批評者指出,這種"水補償"並不像碳補償那樣有效。水資源問題是局部性的,改善一個地區的水資源獲取並不能幫助失去水資源的遙遠社區。更令人擔憂的是這些公司在資料透明度方面的不足。許多公司將水使用量視為專有資訊,當地公用事業公司通常拒絕發佈客戶特定資料,這使得社區和監管機構難以評估對當地水供應的真實影響。在德克薩斯州水資源委員會調查資料中心用水情況時,只有三分之一的營運商做出了回應。在俄勒岡州的達爾斯,Google只有在遭到訴訟後才披露當地資料中心2021年直接使用了135萬噸水——超過該市總供水量的四分之一。亞馬遜的情況更加複雜。儘管該公司聲稱其資料中心用水量遠低於服裝製造或牛肉生產,但調查顯示,亞馬遜在西班牙阿拉貢地區計畫建設的三個新資料中心每年將使用約75.57萬噸的水——大約足以灌溉233公頃玉米。而且這個數字還不包括用於發電的水。非營利調查組織SourceMaterial的調查發現,亞馬遜、微軟和Google正在世界上一些最乾旱的地區營運和建設大量資料中心,對已經面臨水資源短缺的當地人口造成巨大影響。倫理科技協會創始人洛雷娜·豪梅-帕拉西(Lorena Jaume-Palasí)表示:"水資源問題將變得至關重要。從資源角度來看,這些社區的韌性將非常困難。"抗議迫使Google放棄投資面對科技巨頭的擴張,越來越多的社區開始組織起來進行抵抗,拒絕科技中心來自己的家園投資興建資料中心。居民們意識到,資料中心帶來的短期稅收和建築工作,遠遠不能補償長期的資源壓力、電價上漲和環境惡化。在印第安納州的印第安納波利斯,Google曾計畫建設一個佔地約190萬平方米的大型資料中心園區。該項目引發當地居民強烈反對,他們擔憂資料中心將長期消耗大量水資源和電力,卻只能帶來數量有限、以技術崗位為主的就業機會,對社區的實際收益有限。在遭受長達數月的抗議之後,Google最終在去年9月的聽證會上宣佈放棄這一投資計畫。當地居民在現場隨即爆發出歡呼聲,他們成功抵制了這一資料中心項目。在威斯康星州的梅諾莫尼(Menomonie)附近,一個資料中心興建項目引發了民眾的抵制。人們反對在優質農田上建設,並對缺乏透明度表示擔憂。在路易斯安那州東北部,Meta投資100億美元的Hyperion設施正在建設中,居民不斷抗議抱怨交通增加以及學校和住宅附近的安全風險。長期就業機會同樣是民眾不滿之處。芝加哥大學電腦科學教授安德魯·奇恩(Andrew Chien)表示:"由於大部分前期投資都是關於基礎設施的,投資對美國經濟非常有利。"但他補充說,社區面臨的挑戰是如何將這些初始投資轉化為長期利益,比如高薪工作。由於營運資料中心不需要很多人,一旦建成,這些設施通常不能支援很多永久性工作崗位。正是在這樣的背景下,微軟的五點承諾計畫顯得尤為重要。該公司不僅承諾不要求電價補貼或稅收優惠,還主動表示將支付足夠高的電價以覆蓋資料中心的成本,確保這些成本不會轉嫁給當地居民。微軟還承諾到2030年實現資料中心用水強度改善40%,並將補充比使用更多的水。在就業方面,微軟計畫為建築工人和資料中心營運商提供培訓,並投資當地AI教育和非營利組織。AI時代的社會契約資料中心熱潮折射出更深層次的問題:在AI時代,科技公司與社會之間需要建立怎樣的契約?科技巨頭們聲稱AI將帶來巨大的經濟效益和社會進步。微軟CEO薩提亞·納德拉(Satya Nadella)將AI稱為"通用技術",類比為電力或電腦晶片,認為它將推動多個經濟部門的生產力。但問題在於:誰來承擔這種進步的成本?誰又將享受其收益?當前的現實是:成本由社區居民承擔——更高的電費、更緊張的水資源、更糟糕的空氣質量、被破壞的農田;而收益主要由科技公司及其投資者獲得——數兆美元的估值、豐厚的利潤、壟斷性的市場地位。這種不對等的分配是不可持續的,也是不公正的。微軟的五點承諾提供了一個答案的框架:科技公司必須為其資源消耗付費,必須創造本地就業,必須回饋社區,必須承擔環境責任。但這個框架需要從自願承諾轉變為強制性要求,需要從個別公司的善意轉變為整個行業的標準。美國國會等人對科技巨頭的質詢,以及各地社區的反抗,都表明公眾已經開始要求重新談判這份社會契約。資料中心不應該是搾取資源的黑洞,而應該成為真正造福社區的基礎設施。這需要更嚴格的監管、更大的透明度、更公平的成本分擔,以及更多地考慮當地社區的長期利益。現在,微軟給所有科技巨頭樹了一個榜樣。他們需要證明,AI的未來不是建立在社區的犧牲之上,而是建立在真正的共贏基礎上。但真正的考驗是:其他科技巨頭會跟進嗎?更重要的是,這些承諾會真正兌現嗎? (新浪科技)
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)
高盛:800伏特革命:Nvidia如何重塑AI資料中心的未來能源版圖
市場花了三年時間才算清楚這個永不滿足的 AI 資本開支黑洞——尤其是為了阻止中國贏得 AI 戰爭,未來五年至少需要 5 兆美元的資金投入;而這一認知幾乎危險地逼近了戳破 AI 泡沫的邊緣。正當華爾街剛開始適應那個需要填補的巨額 AI 資金缺口之際,這個缺口眼看還要進一步擴大。10 月,輝達宣佈了十多家合作夥伴,著手讓資料中心行業為 800 伏直流(DC)供電架構和 1MW 機櫃功率密度做好準備——這將是一次革命性的轉變,取代傳統的 415 伏交流(AC)供電架構。這家 GPU 巨頭在 10 月中旬表示,將公佈 Vera Rubin NVL144、MGX 代開放架構機櫃伺服器的規格。公司還計畫詳述對輝達 Kyber 系統的生態支援;該系統連接 576 顆 Rubin Ultra GPU,旨在滿足不斷增長的推理需求。作為回應,約 20 家行業合作夥伴正展示新的矽方案、元件、電力系統,以及對輝達最新 800 伏直流(VDC)機櫃系統與電力架構的支援,以支撐 Kyber 機櫃架構。輝達表示:“從傳統 415 或 480 伏交流三相系統遷移到 800VDC 基礎設施,可提供更強的可擴展性、更高的能效、更低的材料使用量,以及更高的資料中心性能容量。使用 800VDC,在相同銅材條件下可傳輸超過 150% 的電力,從而無需用 200 公斤的銅母排為單個機櫃供電。”當然,這也意味著一筆巨額升級帳單即將到來。據 DataCenter Dynamics 報導,CoreWeave、Lambda、Nebius、Oracle Cloud Infrastructure 和 Together AI 等公司都在按 800 伏資料中心進行設計。輝達指出,富士康在台灣的 40MW “Kaohsiung-1” 資料中心也在使用 800VDC。此外,維諦技術(Vertiv)發佈了其 800VDC MGX 參考架構,結合了電力與製冷基礎設施架構。HPE 也宣佈將為 Kyber 提供產品支援。輝達補充稱,新的 Vera Rubin NVL144 機櫃設計具備 45°C(113°F)液冷、新的液冷母排以實現更高性能,以及 20 倍的儲能來保持供電穩定。中央印刷電路板中背板取代傳統的線纜連接,實現更快的組裝與更易維護。Kyber——輝達 Oberon 的繼任者——將在 2027 年前後容納 576 顆 Rubin Ultra GPU。該系統包含 18 個計算刀片並垂直旋轉放置,“像書架上的書一樣”。為輝達轉向 800VDC 提供矽方案的廠商包括 Analog Devices、AOS、EPC、Infineon、Innoscience、MPS、Navitas、onsemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics 和 Texas Instruments。多家晶片供應商指出,800VDC 需要更換電源晶片與電源供應器(PSU),其中不少廠商強調了氮化鎵的能力。AOE 表示:“這種範式轉變需要先進的功率半導體,尤其是碳化矽(SiC)和氮化鎵(GaN),以在更高電壓與頻率下實現最高效率。”參與該項目的電力系統元件供應商包括 BizLink、台達(Delta)、Flex、GE Vernova、Lead Wealth、光寶(LITEON)和 Megmeet。電力系統供應商發佈了新的電源機架(power shelves)、液冷母排、儲能系統與互連方案,以滿足輝達新系統的需求。資料中心電力系統供應商包括 ABB、Eaton、GE Vernova、Heron Power、日立能源(Hitachi Energy)、三菱電機、施耐德電氣、西門子和維諦技術(Vertiv)。多家廠商已宣佈新的 800VDC 架構參考設計,使營運商能夠為未來的 1MW 機櫃做準備。部分營運商正在考慮提供“側車(side-car)”機櫃,放置在電腦櫃兩側,提供所需的供電與製冷。施耐德電氣資料中心 CTO Jim Simonelli 表示:“隨著計算密度提升,轉向 800VDC 是自然演進。施耐德電氣致力於幫助客戶安全、可靠地完成這一過渡。我們的專長在於理解從電網到伺服器的完整電力生態系統,並設計能夠無縫整合、性能可預測且運行安全的解決方案。”可以理解的是,Simonelli 對這場變革欣喜若狂:這意味著隨著 AI 的首個重大升級周期啟動,AI 領域將需要向他的公司訂購數百萬甚至數十億的新裝置。而那些需要為此買單的人,顯然不會那麼高興。這也是為什麼在高盛最近的一份研究報告(nlg.news 可下載)中,該行資料中心分析師 Daniela Costa 寫道,近期投資者圍繞資料中心資本開支(capex)的討論,已轉向輝達提出的 800VDC 架構,以及資本貨物類股中誰將成為贏家和輸家,當然還有這筆帳單到底會有多大。據 Costa 稱,AI 資料中心採用 800VDC 架構是一場由 AI 工作負載不斷攀升的電力需求與營運挑戰驅動的根本性轉變。此次遷移的首要原因,是為了高效支援現代 AI 機櫃前所未有的功率密度——其規模正從每櫃數十千瓦提升到遠超 1 兆瓦,超出了傳統 54V 或 415/480VAC 系統的能力範圍。輝達預計,從長期看,其 800VDC 架構可通過效率、可靠性和系統架構的改進,將總體擁有成本(TCO)最多降低 30%,這也與更低的裝置維護成本相關(當然,短期內這將是另一道重大的支出門檻)。輝達預計,向 800VDC 資料中心的過渡將與其計畫於 2027 年推出的 Kyber 機櫃架構部署同步。關於 2028 年以後可採用輝達 VDC800 運行的資料中心佔比,行業記憶體在很大分歧。例如,在高盛第 17 屆工業周上,Legrand 表示他們預計向更高電壓的轉變將提升每 MW 的收入潛力(從傳統資料中心的 200 萬歐元/MW 提升到可能的 300 萬歐元/MW),但同時指出即便到 2030 年預測值(2030E),超過 300kW 的機櫃也應仍屬小眾;目前仍有 3/4 的機櫃低於 10kW。然而,高盛近期還主持了一場關於 AIDC 供電的專家電話會議,其中提到的預期是:800VDC 架構可能成為主流,覆蓋 80–90% 的新建資料中心。無論採用程度如何,這一技術轉變都意味著部分資料中心的預算可能會被重新分配到與當今架構顯著不同的產品類型上,從而對投資者產生潛在影響。因此,Costa 的目的在於向投資者闡明這些影響;儘管這些影響在未來兩年內不太可能推動公司的預測發生變化,但很快就會開始對估值產生影響。以下摘錄自高盛報告,概述該行對即將到來的關鍵技術變革及其影響的主要觀察。向800VDC配電轉型:800VDC架構從根本上改變了AI資料中心的供電方式,使傳統的AC PDU和AC UPS系統在很大程度上變得不再必要。這類基礎設施需要更精簡的供電路徑,將電力轉換集中化,並在設施層面整合電池儲能。與由單體UPS為特定機櫃或分區提供備用電力不同,800VDC架構採用設施級電池儲能系統。這些大規模電池系統負責管理電力波動、在停電時提供短時支撐電力,並確保整個資料中心的電網穩定性。這可將AC PDU機櫃需求降低多達75%,並支援兆瓦級機櫃功率密度。根據高盛第17屆年度工業周管理層評論,ABB目前在中壓直流UPS(MV DC UPS)系統中佔據100%的份額。隨著資料中心轉向在中壓側採用集中式備電系統,該細分領域預計將變得愈發重要;而施耐德、羅格朗和ABB目前在AC PDU與AC UPS方面已有佈局。Sidecar(側掛模組)是現有資料中心改造的啟動關鍵:在VDC800首輪落地階段(2025–2027),Sidecar將作為過渡模組部署,在完全原生的直流機房上線前發揮作用。它們掛接在兆瓦級機櫃上,將輸入的交流電轉換為800VDC,並提供整合的短時儲能以穩定GPU負載尖峰。該設計消除了對傳統AC PDU和UPS系統的需求,同時使機櫃功率可擴展至1.2MW。施耐德是這些Sidecar的關鍵供應商,明確瞄準帶整合儲能、最高1.2MW的機櫃。這些Sidecar包含DC-DC變換器,ABB也在我們的會議上提到,在該新架構下這類裝置將出現強勁需求。NVIDIA認為,為最大化效率,800VDC資料中心最終形態中還將配備固態變壓器;不過高盛覆蓋的廠商目前均未生產該產品,儘管施耐德和ABB表示正在積極在該領域創新。銅用量降低:在800V下電流需求更低,可使銅質量減少多達45%。同等尺寸導體在800VDC下可較415VAC承載約高出157%的功率,從根本上改變電纜與母線槽的經濟性。這意味著系統將從四線制交流轉向三線制直流(POS/RTN/PE),降低導體與連接器複雜度。由於在相同功率下電流更小,可採用更細的電纜與更小的母排——Prysmian、耐克森(Nexans)、羅格朗和施耐德在資料中心電纜與母排方面有重要敞口。儘管最佳化後,電纜與母線槽仍是800VDC配電不可或缺的組成部分。此外,一些公司指出,儘管此類裝置的用量需求降低,但對質量的要求更高,從而推升ASP;隨著需求轉向直流母線槽、直流開關裝置及專用電纜(尤其是液冷電纜),單位MW的內容價值上升。儘管不用於資料中心應用,耐克森生產液冷超導電纜;Prysmian正在開發直流冷卻解決方案以滿足快充需求;NKT也在研發超導電纜。此外,ABB、施耐德和西門子供應直流開關裝置,而大多數電氣廠商供應直流母線槽。向液冷的決定性轉向:當機櫃功率從數十kW提升至最高1.2MW,這一功率密度會產生前所未有的熱量,傳統風冷系統越來越難以高效散熱。風冷在應對AI與現代計算不斷提升的散熱與功率需求方面表現不足,從而推動行業決定性轉向液冷,並採用兆瓦級冷卻液分配單元(CDU)。在高盛覆蓋範圍內,施耐德通過其Motivair資產在液冷方面敞口最大;阿法拉伐(Alfa Laval)也通過協作獲得間接敞口,相關系統中還包括Vertiv等液冷方案提供商、超大規模雲廠商以及承包商。Carel也提供控製器、加濕系統與感測器,廣泛應用於資料中心液冷及傳統製冷系統。保護與安全系統重構:800VDC架構簡化了配電方式,不再通過大量交流配電盤來分配交流電(這些配電盤是由斷路器、開關與控制裝置組成的大型成套裝置)。在800VDC架構中,它們正被先進的直流安全斷路器與固態保護裝置所取代。固態斷路器是該領域的關鍵創新,相較機械式產品具備更快速度與更強可控性。例如,ABB的SACE Infinitus被稱為全球首款獲得IEC認證的固態斷路器,專為使直流配電具備可行性而設計。此外,施耐德也表示正在開發固態開關裝置,但尚未實現商業化。對儲能的需求增加:向800VDC資料中心轉型需要更大的電池儲能,以應對更高的功率波動並繞開電網並網限制,因為機櫃負載可在毫秒級從30%躍升至100%利用率。儲能將演進為主動的“低通濾波器”,吸收高頻尖峰並平滑負載爬坡。這將支援分層策略:在更靠近機櫃處使用快速響應電容來應對毫秒級波動,在更靠近並網點處使用大型BESS來提供更長時間的支撐。高盛強調,施耐德在儲能向更靠近機櫃部署的趨勢中具備敞口。臨別之際,高盛分析師指出,這是一個趨勢,其對該銀行覆蓋範圍的影響尚不明朗但可以肯定;儘管如此,這種技術的出現需要時間,該銀行預計將在 2028 年左右開始看到商業化。最後,我們用幾張圖表來總結,首先是未來幾年需要更換和不需要更換的東西的可視化快照,以及向 800VDC 的過渡:橙色部分代表需要升級的裝置以及對當前產品的潛在較低需求,紅色部分代表可能被更換的裝置,綠色部分代表預計需求會更強的裝置。接下來,按公司彙總的產品曝光情況。最後,對資料中心裝置競爭格局進行總結。 (老李說研報)
SemiAnalysis深度報告:美國電網跟不上,AI資料中心“自建電廠”跟時間賽跑
在公共電網建設動輒十年的現實下,OpenAI、xAI、Google等美國頭部AI實驗室集體繞開電網,自建燃氣電廠,以最快的速度讓算力跑起來。底層邏輯在於,當AI進入超大規模部署階段,電力問題已經從“成本問題”,升級為決定算力能否按期上線的第一性約束。AI的戰爭中,指數級增長的算力需求,正狠狠撞向美國老化且緩慢的公共電網。結論殘酷而清晰——誰等電網,誰就出局。為了不被時間淘汰,越來越多美國AI資料中心正在做一件過去幾乎不可想像的事:不等電網,直接在園區內自建電廠。燃氣輪機、燃氣發動機、燃料電池被快速部署到資料中心旁邊,只為一個目標——盡快把電接上,讓算力跑起來。2025年最後一天,知名半導體與算力研究機構SemiAnalysis發佈了一份長達60多頁的付費深度報告——《How AI Labs Are Solving the Power Crisis: The Onsite Gas Deep Dive》(AI實驗室如何破解電力危機:現場燃氣發電深度解析)。報告系統梳理了這一變化的底層邏輯:當AI進入超大規模部署階段,電力問題已經從“成本問題”,升級為決定算力能否按期上線的第一性約束。電力危機的本質:不是不夠,而是太慢在傳統認知中,美國並不存在系統性“缺電”。但SemiAnalysis指出,AI資料中心遭遇的真正瓶頸,並不在於電力資源是否存在,而在於電力交付節奏與算力擴張速度的嚴重錯配。AI資料中心的建設周期,已被壓縮至12—24個月;而電網擴容、輸電建設和並網審批的典型周期,仍然以3—5年計。當算力需求開始以吉瓦為單位集中釋放,“等電”本身就成為一種無法承受的風險。以德州ERCOT為例,2024—2025年間,資料中心提交的新增負荷申請規模高達數十GW,但同期真正獲批並成功接入的新增負荷,僅約1GW。電網並非沒有電,而是慢到無法匹配AI的節奏。當算力的“時間價值”壓倒電價為什麼AI公司願意承擔更高成本,也要繞開公共電網?SemiAnalysis給出的答案是:算力的時間價值正在重塑一切決策邏輯。按照測算,一個1GW規模的AI資料中心,年化潛在收入可達百億美元等級。即便是中等規模叢集,只要上線時間提前數個月,帶來的商業價值就足以覆蓋更高的電力成本。在這種背景下,電力不再只是營運成本,而是決定AI項目能否存在的前置條件。“自建電廠”,從非常規選擇變成現實解法於是,一種過去只存在於極端場景中的方案,被迅速推到台前——BYOG(BringYourOwnGeneration,自建電源、現場發電)。這種模式的目標並非永久脫離電網,而是“搶時間”:前期以離網方式快速投產後期再逐步接入電網,現場電廠轉為備用與冗餘在AI時代,先上線,正在壓倒先最優。xAI帶頭,AI巨頭集體“自發電”SemiAnalysis在報告中重點分析了xAI的案例。在孟菲斯,xAI在不到四個月內建成了一個10萬卡規模的GPU叢集。與其說這是算力奇蹟,不如說是一場電力工程的極限操作:完全繞過公共電網使用可快速部署的燃氣輪機與燃氣發動機現場發電能力超過500MW甚至在裝置層面,xAI選擇租賃而非採購,以進一步壓縮建設周期。報告顯示,到2025年底,“自建電廠”已不再是個案,而是成為系統性趨勢:OpenAI與甲骨文在德州合作建設2.3GW現場燃氣電站Meta、亞馬遜AWS、Google均在多個園區採用“橋接電力”方案多個AI超級叢集在未完成正式並網前已投入運行在美國,已有十余家發電裝置供應商,單筆拿下超過400MW的AI資料中心訂單。SemiAnalysis認為,這標誌著電力首次被視為AI基礎設施的一部分,而非外部條件。為什麼是天然氣?在所有現場發電方案中,天然氣成為絕對主流。原因並不複雜:它幾乎是唯一能在規模、穩定性和部署速度上同時滿足AI需求的選擇。相比之下,核電建設周期過長,風電與儲能難以支撐一天二十四小時高負載運行,而高效率聯合循環機組雖然經濟性更優,卻同樣無法滿足“立刻上線”的時間要求。在AI競爭中,最優解正在被時間解替代。誰等電網,誰就出局?SemiAnalysis在報告中並未迴避一個現實:自建電廠的長期成本通常高於電網供電。但在AI的競爭邏輯中,“慢”比“貴”更致命。當算力成為新一代基礎設施,電力正在從公共資源,轉變為AI公司必須掌握的內部能力。在這場競賽中,決定勝負的,不只是模型、晶片或資本規模,而是——誰能更快把電接到算力上。以下為報告原文內容,由AI協助翻譯:《AI實驗室如何解決電力危機:現場天然氣發電深度解析》電網老舊且不堪重負大約兩年前,我們首次預測了即將到來的電力短缺。在我們的報告《AI資料中心能源困境-AI資料中心空間的競賽》中,我們預測美國的AI電力需求將從2023年的約3吉瓦增長到2026年的超過28吉瓦——這種壓力將壓垮美國的供應鏈。我們的預測被證明非常準確。下圖說明了問題:僅在德克薩斯州,每月就有數十吉瓦的資料中心負載請求湧入。然而在過去12個月裡,僅批准了略高於1吉瓦的容量。電網已經售罄。然而,AI基礎設施不能等待電網長達數年的輸電升級。一個AI雲每吉瓦每年可以產生100-120億美元的收入。讓一個400兆瓦的資料中心提前六個月上線就價值數十億美元。經濟需求遠遠超過了諸如電網過載等問題。行業已經在尋找新的解決方案。十八個月前,埃隆·馬斯克在四個月內建造了一個擁有10萬個GPU的叢集,震驚了資料中心行業。多項創新促成了這一驚人成就,但能源策略是最令人印象深刻的。xAI完全繞過了電網,使用卡車裝載的燃氣輪機和發動機在現場發電。如下圖所示,xAI已經在其資料中心附近部署了超過500兆瓦的輪機。在一個AI實驗室爭相成為第一個擁有吉瓦級資料中心的世界裡,速度就是護城河。一個接一個,超大規模企業和AI實驗室紛紛效仿,暫時放棄電網,建造自己的現場發電廠。正如我們幾個月前在《資料中心模型》中所討論的,2025年10月,OpenAI和Oracle在德克薩斯州訂購了有史以來最大的現場天然氣發電廠,規模達2.3吉瓦。現場天然氣發電市場正進入一個三位數年增長的時代。受益者遠不止尋常的那些。是的,GEVernova和西門子能源的股價已經飆升。但我們正見證前所未有的新進入者浪潮,例如:韓國工業巨頭斗山能源,其H級輪機上市時機恰到好處。它已經獲得了為埃隆的xAI服務的1.9吉瓦訂單——正如我們幾周前獨家向我們《資料中心行業模型》訂閱者披露的那樣。瓦錫蘭,歷史上是一家船舶發動機製造商,意識到為游輪提供動力的發動機同樣可以為大型AI叢集供電。它已經簽署了800兆瓦的美國資料中心合同。BoomSupersonic——是的,那家超音速噴氣機公司——宣佈與Crusoe簽訂了1.2吉瓦的輪機合同,將來自資料中心發電的利潤視為其Mach2客機的又一輪融資。為了瞭解供應商的增長和市場份額,我們在《資料中心模型》中建立了部署現場天然氣的站點逐一追蹤器。結果讓我們驚訝:僅在美國,現在就有12家不同的供應商各自獲得了超過400兆瓦的資料中心現場天然氣發電訂單。然而,現場發電也帶來了自身的一系列挑戰。如下文詳述,發電成本通常(遠)高於通過電網供電。許可過程可能漫長而複雜。它已經導致了一些資料中心延遲——最引人注目的是Oracle/Stargate的一個吉瓦級設施,我們的《資料中心行業模型》通過分析整個許可過程,在彭博社頭條新聞發佈前三周就預測到了這一點。再一次,像xAI這樣聰明的公司找到瞭解決方案。埃隆的AI實驗室甚至開創了一種新的選址流程——在州界上建設,以最大程度提高及早獲得許可的機會!雖然田納西州未能按時交付,但密西西比州欣然讓埃隆建造了一個吉瓦級的發電廠。本報告是對"自帶發電"的深度解析。我們從電網為何跟不上開始,然後對資料中心可用的每項發電技術提供技術分解——GEVernova的航改型輪機、西門子的工業輪機、顏巴赫的高速發動機、瓦錫蘭的中速發動機、BloomEnergy的燃料電池等等。接著我們考察部署配置和營運挑戰:完全孤島式資料中心、燃氣+電池混合系統、能源即服務模式,以及決定那種解決方案勝出的經濟學原理。在付費牆後,我們將分享我們對製造商定位的看法,以及現場發電的未來。在AI時代,電網是否已死?在深入探討解決方案之前,我們需要理解電網為何失靈。公平地說,迄今為止,美國的電力系統一直是AI基礎設施的主要推動者。除了埃隆之外,當今每個主要的GPU和XPU叢集都運行在電網供電上。我們在之前SemiAnalysis的深度解析中報導過其中的許多:《微軟的AI戰略》展示了在威斯康星州、喬治亞州和亞利桑那州為OpenAI服務的龐大電網連接設施。我們的《多資料中心訓練》報告,深入探討了Google在俄亥俄州和愛荷華州/內布拉斯加州的龐大電網供電叢集,以及OpenAI在德克薩斯州阿比林與Oracle、Crusoe和Lancium合作的吉瓦級叢集。我們的《Meta超智能》文章闡述了他們的大型AI計畫,其中包括一些現場天然氣發電,但主要由俄亥俄州的AEP系統和路易斯安那州的Entergy供電。我們的《亞馬遜的AI復興》論文,討論了AWS為Anthropic準備的大規模Trainium叢集,同樣連接到AEP和Entergy的基礎設施。這些洞見在我們的《資料中心行業模型》中出現在官方宣佈之前數月或數年。我們的模型追蹤了數十個正在建設、計畫2026年及以後交付的大規模叢集——包括它們的確切啟動日期、全部容量、終端使用者和能源策略。但我們已經到了一個臨界點。2024-25年上線的大型資料中心是在2022-23年、淘金熱之前確保了電力供應。自那以後,爭奪變得持續不斷。我們估計,提交給美國公用事業公司和電網營運商的負載請求大約有1太瓦。結果就是僵局——字面意思。正如我們在《吉瓦級AI訓練負載波動》中所解釋的,電網的設計使其速度緩慢:即時平衡:電力的供應和需求幾乎必須完美匹配,每秒如此。不匹配可能導致數百萬人停電,正如我們在2025年4月伊比利亞半島停電事件中所見。系統研究:每一個大型新負載(資料中心)或供應(發電廠)都會引發深入的工程研究,以確保不會破壞網路穩定。而在某些地方,電網拓撲結構變化如此之快,以至於負載研究在完成前就過時了。當成百上千的開發商同時提交並網請求時,系統就會陷入停滯。這變成了一個囚徒困境:如果每個人都協調一致,電網本可以更快地處理更多請求。FERC第2023號命令已推動電網營運商為此採用叢集研究,但這些改革直到2025年才鞏固下來。實際上,"淘金熱"行為意味著開發商同時向不同的公用事業公司提交多個投機性請求。例如,截至2024年中,AEP俄亥俄州有35吉瓦的負載請求——其中68%甚至沒有土地使用權。投機性請求堵塞了所有人的佇列,從而鼓勵了其他地方更多的投機性請求。這種惡性循環加速了。供應端同樣受限。從並網請求到商業營運的時間表現在對於大多數發電類型來說已延長至五年。AI基礎設施開發商不能等待五年。在許多情況下,他們連六個月都不能等,因為等待六個月意味著數十億美元的機會成本損失。引入BYOG-自帶發電BYOG的核心價值主張很簡單:無需等待電網即可開始營運。資料中心可以無限期地依靠本地發電運行,然後在電網服務最終到位後,將這些裝置轉換為備用電源。這正是xAI的策略。他們使用移動燃氣輪機建造了"巨像"設施,在幾個月而非幾年內使其上線。現在每個人都在效仿這一策略。讓我們來研究一下如何實現。如何自帶發電:舊世界vs新世界BYOG涉及對我們建造發電廠方式的徹底重新思考。傳統上,我們通過大型、集中式的吉瓦級基荷發電機輸送電力——輔以較小的調峰電廠來處理電網範圍內的負載峰值。聯合循環模式下的重型燃氣輪機是最常見的現代部署方式。其無與倫比的燃料效率(>60%)為我們現代文明提供了支柱。然而,它們的主要問題是部署速度:獲得大型輪機通常需要數年交貨期,而目前的交貨期正處於歷史高位。一旦交付,大型聯合循環發電廠的建設和偵錯需要約2年時間——在AI時代,這簡直是永恆。AI資料中心"自帶發電"電廠重塑了規則手冊,xAI為行業引領了道路。為了更快部署,埃隆的AI實驗室依賴於SolarTurbines(CAT的子公司)的16兆瓦小型模組化輪機。這些輪機小到可以用標準長途卡車運輸。它們在幾周內即可部署完成。埃隆甚至沒有購買它們——他是從SolarisEnergyInfrastructure租用的,以繞過裝置交貨期。他還利用了VoltaGrid的移動卡車裝載燃氣發動機車隊來更快交付!其他超大規模企業迅速效仿。Meta在俄亥俄州與Williams的部署很有代表性——他們的發電廠包含了五種不同類型的輪機和發動機,顯然設計模式是"只要能及時到貨,有什麼我就部署什麼!"現在讓我們深入瞭解資料中心營運商可用的不同類型裝置。裝置格局概覽資料中心開發商可用的燃氣發電機中,大致分為三類:燃氣輪機-低溫、爬坡慢的工業燃氣輪機;高溫、爬坡快的航改型燃氣輪機;非常大型的重型燃氣輪機。往複式內燃機-包括較小的3-7兆瓦高速發動機;以及較大的10-20兆瓦中速發動機。有時簡稱為"活塞機"。固體氧化物燃料電池-目前主要的可用選項來自BloomEnergy。還有其他現場發電選項,例如與現有核電廠並置、建造現場小型模組化反應堆、地熱等等,但本報告不討論這些。在大多數情況下,未來約3年內,這些其他解決方案不會驅動淨新增發電。理解那些解決方案最適合某些用例需要深入核心權衡。我們認為以下幾點最為相關:成本:通常以$/kW列出。這些成本估算差異巨大,並且在每個發電機類別中都持續上升。注意維護費用也很重要:某些系統的使用壽命較短,即年度維護成本較高。交貨期:通常以月或年列出。隨著需求增長超過供應,每個發電機類別的交貨期都在增加。請注意,發電機可用性之外的其他因素也會影響供電時間。最值得注意的是,即使在像德克薩斯州這樣許可較快的州,現場發電的空氣許可也可能需要一年或更長時間。此外,不同系統的安裝時間差異很大。有些從現場交付到發電只需要幾周時間,例如小型卡車裝載輪機或發動機,以及燃料電池。大型聯合循環燃氣輪機組裝可能需要超過24個月。冗餘和可用性:發電機的預期可用性,以一年內的正常執行階段間百分比或"幾個9"表示。過去十年,美國電網平均可用性為99.93%(三個9),有些地區甚至更高。對於現場發電廠,可以通過增加熱備用和冷備用來管理冗餘,或通過增加備用電源。單個輪機越大,管理備用和備份就越困難。爬坡率:以冷啟動到最大輸出之間的分鐘數衡量。爬坡率小於10分鐘的發電機有資格作為電網或備用電源的儲備發電。爬坡率慢意味著該機組主要專注於基荷供電。土地使用:以兆瓦/英畝衡量。在空間受限的地區,這一點更重要。小型發電系統即使在叢集部署時,用水量也微不足道。然而,非常大的輪機確實需要大量冷卻用水。熱耗率和燃料效率:以每千瓦時消耗的天然氣BTU衡量。熱耗率越高意味著效率越低——輸入更多燃料,輸出相同電力,留下更多廢熱。銘牌熱耗率假設"峰值"運行條件,通常是最大輸出。在低於50%輸出時,效率會大幅下降。其中許多現場燃氣系統可以配置為熱電聯產系統。對於資料中心,這將涉及利用燃氣發電機的廢熱進行吸收式冷卻系統,從而減少資料中心冷卻的用電量。實際上,我們觀察到,無論其他規格如何,只要誰有開放訂單並能提供良好時間表,誰就傾向於贏得交易!話雖如此,現在讓我們深入瞭解不同類型的燃氣發電廠。航改型輪機和工業燃氣輪機——對資料中心極具吸引力燃氣輪機運行在布列敦循環上:壓縮空氣,在其中燃燒燃料,然後將熱氣體導向輪機。輪機通過入口溫度來區分。較低的溫度對應於較低的安裝成本、較低的維護成本、較低的峰值效率和較慢的爬坡率。航改型燃氣輪機本質上就是將噴氣發動機固定在地上。GEVernova的航改型源自GE的噴氣發動機;三菱動力的源自普惠;西門子能源的源自勞斯萊斯。由於噴氣發動機設計為在緊湊、適於飛行的封裝中提供巨大功率,因此它們相對容易改裝用於固定式發電。延長輪機軸,在末端螺栓連接發電機線圈,增加進氣和排氣消聲器,並從油箱或管道輸送燃料。這部分解釋了BoomSupersonic能如此迅速地轉向航改型燃氣輪機:他們的大部分工程和製造都是現成的。我們在下方展示了MartinDrake發電廠的檢視,配備了6台GEVernovaLM2500XPRESS機組。這就是電力公司部署航改型輪機的方式,作為電網突發供應短缺的"調峰電廠"。航改型燃氣輪機的核心製造商與重型燃氣輪機的相似:GEVernova、三菱動力和西門子能源主導市場,銷售航改型和低溫工業燃氣輪機。此外,卡特彼勒也通過Solar品牌生產工業燃氣輪機,Everllence也生產。兩種GEVernova設計主導了航改型市場:LM2500–約34兆瓦,針對快速部署最佳化,尤其是LM2500XPRESS。LM6000–約57兆瓦,現在有快速部署的LM6000VELOX配置。航改型燃料效率尚可,但在空間和重量方面極其高效。它們可以安裝在緊湊的佔地面積中,並且在某些配置下可以用一對拖車運輸。簡單循環的航改型通常提供30-60兆瓦的功率包,可以在5-10分鐘內從冷態爬升至滿負荷輸出。但是,如果低於滿負荷穩定運行,效率會受到影響。航改型也可以配置為小型聯合循環電廠:1x1(一台燃氣輪機驅動一台蒸汽輪機),或2x1(兩台燃氣輪機驅動一台蒸汽輪機)。這些聯合循環設定以犧牲爬坡速度為代價,提供了更高的效率和更多的輸出。啟動時間延長至30-60分鐘。按照目前的價格,航改型輪機的全投資本支出在$1,700-2,000/kW之間,根據近期訂單,其交貨期為18-36個月且仍在延長。較小輪機交貨期可短至12個月,較大的航改型輪機(約50兆瓦)可能長達36個月。這些系統安裝很快(通常2-4周),但工廠預訂量巨大。一個變通方法是使用卡車裝載輪機,如果可用,可以快速租賃和部署。xAI正是採用了這一策略,與SolarisEnergyInfrastructure合作,縮短了其Colossus1和2項目的供電時間。工業燃氣輪機工業燃氣輪機與航改型輪機工作原理相同,並共享緊湊佔地面積、模組化和相對較短交貨期等優點。但它們是專為固定使用從頭設計的,而非從航空領域改裝而來。它們通常在較低的入口溫度下運行,並使用更簡單的設計,這以犧牲效率和爬坡速度為代價降低了服務成本。簡單循環的工業燃氣輪機功率範圍大約為5-50兆瓦,從冷態爬升至滿負荷輸出約需20分鐘。這使得它們自身速度太慢,無法在沒有電池或柴油機組幫助的情況下作為調峰電廠或應急備用電源。與航改型類似,工業燃氣輪機可以升級為聯合循環配置,提高效率的同時進一步減慢爬坡率。最常見的專用工業燃氣輪機是西門子能源SGT-800和SolarTitan系列。然而,較小的重型燃氣輪機如GEVernova6B有時也承擔類似用例。按照目前的價格,工業燃氣輪機的全投資本支出在$1,500-1,800/kW之間,交貨期約為12-36個月,與航改型相似。然而,採購二手或翻新工業燃氣輪機可以將交貨期縮短至12個月以內,這正是FermiAmerica獲取電力的方式。總體而言,我們認為航改型輪機和工業燃氣輪機是現場發電非常具有吸引力的解決方案,因為:"尺寸合適":足夠小以便於冗餘,足夠大以避免現場單元過多並使維護複雜化。爬坡速度快:雖然它們能效不如其他方案,但它們更容易被重新用作備用電源。部署快速:普通卡車和施工隊即可運輸和安裝它們,而不是重型燃氣輪機所需的那種重型起重基礎設施。我們將在報告後面討論部署考慮因素時探討這些概念。航改型和工業燃氣輪機的主要問題是交貨期越來越長。燃氣輪機中供應最緊張的部件是渦輪葉片和核心機,它們必須承受高溫和高速。這些葉片使用含有錸、鈷、鉭、鎢、釔等稀土金屬的奇異單晶鎳基合金。往複式發動機往複式發動機工作原理類似於汽車發動機,但規模大得多,一台11兆瓦的發動機長度可能超過45英呎(14米)。它們使用四沖程燃燒循環,並根據轉速劃分:高速發動機–約1,500轉/分鐘;佔地面積和輸出較小。中速發動機–約750轉/分鐘;由於機械應力較低,通常維護成本較低。活塞機可以在10分鐘內從冷態爬升至滿負荷輸出,實際上與航改型相似。這使得活塞機可以作為調峰電廠或備用發電機,無需柴油備用電源。理論上,活塞機的維運成本看起來比輪機高,因為活動部件更多。但實際上,它們比許多輪機更好地處理燃料雜質、粉塵和高環境溫度,並且在炎熱氣候下性能下降較少。中速發動機製造業相當集中,主要製造商是瓦錫蘭、BergenEngines和Everllence。高速發動機製造業不如輪機那樣集中。除了顏巴赫、卡特彼勒、康明斯和勞斯萊斯子公司MTU等主要參與者外,還有眾多製造商,因為高速燃氣發動機在功能上等同於目前許多資料中心用於備用電源的柴油發動機設計。最具影響力的往複式發動機是顏巴赫J624,這是一台4.5兆瓦渦輪增壓燃氣發動機,可以集裝箱化以便物流。該系統是VoltaGrid能源整合服務的首選發電機。活塞機系統通常單位功率低於同等輪機。中速發動機功率在7兆瓦到20兆瓦之間,更高功率輸出通過渦輪增壓實現。高速發動機更小,單位輸出功率在3兆瓦到5兆瓦之間。然而,在50%到80%的部分負載下執行階段,活塞發電機比輪機效率更高。往複式發動機的運行溫度遠低於燃氣輪機,接近600°-700°C。這極大地減少了對高性能合金的需求。只有活塞、燃燒室和渦輪增壓器中的高溫部件仍然需要稀有鎳和鈷合金,其餘部分可以用簡單的鑄鐵、鋼和鋁製造。然而,總體而言,活塞機對關鍵礦物的依賴程度較低,特別是在材料供應緊張時期放寬排放控制的情況下。按照目前的價格,往複式發動機的全投資本支出在$1,700-2,000/kW之間,交貨期為15-24個月。與輪機相比,這些系統的製造延遲較少;製造時間線更接近12-18個月。然而,中速活塞機比輪機重得多,安裝和偵錯可能需要長達約10個月。高速發動機的部署可以快得多。例如,在最初的Colossus1部署中,xAI利用了34台VoltaGrid卡車裝載系統,整合了顏巴赫的高速發動機。高速發動機特別受能源採購供應商的歡迎。它們的廣泛可用性和小單元尺寸提供了更快的供電時間。我們在下方展示了VoltaGrid在聖安東尼奧的50兆瓦部署,配備了二十台顏巴赫J620。權衡之處在於規模:用5兆瓦發動機建構一個2吉瓦的現場燃氣系統,你需要500個單元!這帶來重大的營運後果。如果每台發動機每2,000小時需要一次小維護,那麼維護人員每年將執行超過2,000次服務,每周近40次。這些成本比輪機大修(可能涉及更換整個核心機)更可預測,但它們會累積,特別是對於擁有許多小單元的叢集。空間和備件庫存也會類似地增加,儘管小型發電機的垂直堆疊可以緩解土地使用問題,這對於中速發動機來說是不可能的。燃料電池與BloomEnergy的崛起一個相當小眾的解決方案正在佔據越來越大的市場份額:燃料電池。通常與氫能相關聯,BloomEnergy的SOFC固體氧化物燃料電池也可以使用天然氣運行,並被定位為基荷發電。我們早在2024年就在資料中心模型中指出了BloomEnergy是贏家。自那以後,訂單激增。Bloom的"能源伺服器"由多個約1千瓦的電堆組成,組裝成約65千瓦的模組,並打包成325千瓦的發電機組。迄今為止,最大的營運中SOFC發電廠規模在數十兆瓦,主要在美國和韓國。它們產生能量的方式與傳統發電機非常不同。沒有燃燒過程。相反,氧氣被電化學還原成氧離子,流經陶瓷電解質。在燃料電池的另一端,這些離子與從甲烷天然氣中剝離出來的氫原子結合。這種結合釋放出水、二氧化碳和電能。這種根本性差異為Bloom的燃料電池提供了關鍵優勢:它們不會產生嚴重的空氣污染(除了CO₂)。在EPA層面的許可比燃燒發電機要順利和容易得多。這就是為什麼我們經常在人口中心附近看到它們,例如辦公室附近。Bloom的殺手鐧是部署速度。它幾乎只需要預製基座和簡單的模組安裝。一旦考慮到電氣工程、安裝和偵錯,幾周內即可完成,與航改型輪機和高速活塞機的速度相當。在AI時代,速度就是護城河,僅這一優勢就足以讓Bloom佔據一席之地。Bloom的主要挑戰是成本。燃料電池效率相當好,等效熱耗率為6,000-7,000BTU/kWh,這與聯合循環燃氣輪機相當。然而,燃料電池系統的成本明顯高於輪機或活塞系統,資本支出成本在$3,000-$4,000/kW之間。Bloom沒有宣傳爬坡率,這表明這些單元速度太慢,無法作為調峰或應急備用。歷史上,維護成本也明顯高於其他解決方案。單個燃料電池電堆壽命大約5-6年,然後必須更換和翻新。這種逐電堆更換約佔服務成本的65%,儘管具體數字嚴格保密。我們將在付費牆後分享Bloom燃料電池的總擁有成本估算。重型燃氣輪機:BYOG的未來?在ChatGPT出現之前,只有公用事業公司和獨立電力生產商有理由購買大於250兆瓦的燃氣輪機,因為超過這個閾值的輪機對於大多數工業應用來說太大了。如上所述,部署速度是一個問題,然而,我們越來越多地看到開發商通過較小的航改型輪機/活塞機提供"過渡電力",然後在大聯合循環燃氣輪機投入運行後,將它們轉為備用/冗餘。大型輪機根據燃燒溫度和技術堆疊分為幾類:E級和F級–較舊、溫度較低、效率較低的設計。一些F級機組仍在銷售,通常是進入新興市場,因為它們以較低的資本支出提供了不錯的效率。工業輪機和小的E/F級輪機的界限模糊,下面這些著名型號跨越了這條界限:GEVernova6BGEVernova7E西門子能源SGT6-2000EH級及同等產品–現代、高溫設計。這些機組的燃燒溫度與現代航改型和噴氣發動機相當,但單位功率大約是其10倍。最突出的例子是:GEVernovaHA系列西門子能源H/HL三菱重工J系列最近,韓國公司斗山能源已經開始生產新的H級輪機DGT6。在一個有十年歷史的市場中看到新進入者很少見,但斗山在蒸汽輪機製造方面經驗豐富,並有建造三菱設計的F級輪機的記錄。這些系統既龐大又沉重。安裝和偵錯過程可能需要一段時間。聯合循環燃氣輪機聯合循環燃氣輪機利用了這樣一個事實:簡單循環的排氣仍然很熱,足以將水煮沸成蒸汽。將排氣通過餘熱鍋爐產生蒸汽,用於驅動單獨的蒸汽輪機和發電機。其結果是,相同的燃料產生第二輪電力。通過將一個輪機的廢熱變成另一個輪機的財富,聯合循環燃氣輪機可以比簡單循環輪機效率提高50-80%。最受大型負載推崇的聯合循環燃氣輪機是重型聯合循環燃氣輪機,可以達到吉瓦級的輸出功率。然而,即使是小型航改型或工業燃氣輪機也可以與整合的蒸汽輪機一起出售,這可以在幾乎相同的燃料輸入下顯著增加功率輸出。常見的配置有:1x1–一台燃氣輪機驅動一台蒸汽輪機2x1–兩台燃氣輪機驅動一台蒸汽輪機理論上,更多的燃氣輪機可以驅動一台蒸汽輪機,但收益遞減。聯合循環系統的主要缺點是爬坡率:增加蒸汽輪機將冷啟動到滿負荷輸出的時間減慢到30分鐘或更長。另一個主要缺點是交貨期。安裝和偵錯時間甚至比簡單循環部署更長。從裝置到執行:部署、挑戰、經濟學瞭解裝置格局是必要的,但還不夠。現場燃氣的真正複雜性不在於選擇LM2500還是顏巴赫J624——而在於如何配置、部署和運行這些系統以滿足資料中心正常執行階段間要求。電網是系統工程的一個奇蹟:成千上萬的發電機、數百條輸電線路和複雜的市場機制共同提供了99.93%的平均正常執行階段間。當你脫離電網時,你自己承擔了這種複雜性——用一個單一的發電廠來匹配電網級的可靠性。冗餘和正常執行階段間是現場燃氣發電成本在大多數情況下結構性遠高於電網供電的關鍵原因。下一節將考察領先的部署如何應對這一挑戰,以及對裝置選擇意味著什麼。Crusoe和xAI:過渡電力部署迄今為止最流行的現場燃氣策略之一是"過渡電力"。資料中心園區與電網積極溝通以獲得電力服務,但通過現場發電提前開始營運。過渡電力清除了電力作為營運瓶頸,允許資料中心提前數月開始訓練模型或產生收入。這種加速是顯著的!AI雲收入每年每兆瓦可達1000-1200萬美元,這意味著即使提前六個月為200兆瓦的資料中心供電並上線,也能帶來10-12億美元的收入。過渡電力帶來兩個優勢:正常執行階段間要求可以與工作負載匹配。例如,在德克薩斯州阿比林和田納西州孟菲斯,xAI和Crusoe/OpenAI都在部署大型訓練叢集。考慮到大型GPU叢集固有的不可靠性,訓練作業不需要特別高的正常執行階段間。因此,可以避免為冗餘而"過度建設"發電廠。一旦電網連接獲得保障,園區可以更靈活地用於推理。通過取消柴油發電機備份實現有利的經濟性。在孟菲斯和阿比林,沒有備用電源降低了資料中心每兆瓦的資本支出。一旦獲得電網連接,輪機可以作為備用電源——因此,優先選擇快速爬坡系統,例如航改型輪機。為了確保合理的正常執行階段間,xAI將輪機與Megapacks配對。這也使得能夠平滑負載波動——我們將在下面討論這個問題。永遠離網:冗餘挑戰,能源即服務許多發電機供應商建議資料中心所有者永遠不要麻煩與更廣泛的電網互聯;相反,他們認為他們的資料中心客戶應該永遠保持離網狀態。像VoltaGrid這樣的公司提供完整的"能源即服務"套餐,管理電力服務的所有方面:電能–容量兆瓦和能量兆瓦時電能質量–電壓和頻率容差可靠性–目標的"幾個9"正常執行階段間供電時間–從合同到營運的月份他們通常與客戶簽訂長期購電協議,客戶支付電力服務費用——能源即服務供應商實質上充當了公用事業公司的角色。他們採購裝置、設計部署、有時組裝物料清單、並維護和營運發電廠。部署離網發電的一個關鍵挑戰是管理冗餘。例如,位於德克薩斯州沙克爾福德縣的1.4吉瓦VantageDC園區將部署2.3吉瓦的VoltaGrid系統。這些系統較小,便於冗餘——但如果你要用大型重型輪機部署現場發電,冗餘方案可能只是簡單地擁有兩個發電廠,甚至更多。發電機製造商通常會建議至少採用N+1配置,甚至N+1+1配置。N+1配置在一台發電機意外停機時仍能維持全部發電能力,而N+1+1配置在保持這種靈活性的同時,還額外有一台發電機處於待命狀態以進行維護周期。這相當於駕駛一輛帶有備胎和補胎套件的汽車。請注意,N+1或N+1+1不一定指發電機的字面數量,因為資料中心負載通常遠大於單個現場燃氣發電機。例如,考慮一個總功耗(IT+非IT)為200兆瓦的資料中心:示例1:11兆瓦活塞機發電叢集:26×11兆瓦活塞機組總容量:286兆瓦正常執行階段:23台發動機以約80%負載運行,產生200+兆瓦。一台發電機故障:22台發動機適度提升至約82%負載。3台備用發動機用於維護或作為冷備用。以低於滿負荷運行發動機降低了維運成本,額外的機組為維護調度提供了緩衝。NexusDatacenter採用了類似的方法:他們最近申請了一個空氣許可,部署三十台Everllence18V51/60G燃氣發動機,每台功率20.4兆瓦,總計613兆瓦的發電能力。該站點還將包括152兆瓦的柴油備用發電,這可能滿足了整個站點的N+1冗餘要求。示例2:30兆瓦航改型輪機發電叢集:9×30兆瓦航改型機組總容量:270兆瓦正常執行階段:7台輪機以約95%負載運行以獲得最佳效率。一台輪機故障:第8台輪機啟動,保持輸出。第9台輪機留作維護備用。由於輪機大修比發動機維護更具破壞性,一些供應商提供熱插拔計畫:將需要大修的輪機取代為一個替換核心。在炎熱氣候下,如美國西南部,性能降額可能需要10-11台航改型輪機來維持N+1+1冗餘。Crusoe為Oracle和OpenAI在阿比林的站點採用了這種設定的變體,部署了十台輪機,包括五台GEVernovaLM2500XPRESS航改型燃氣輪機和五台Titan350,銘牌發電能力為360兆瓦。示例3:Meta+WilliamsSocratesSouthMeta和Williams正在建造兩座200兆瓦的專供式燃氣發電廠,為Meta的新奧爾巴尼中心供電,我們在本文中已經報導過:Meta在俄亥俄州的新型超快"帳篷"資料中心SocratesSouth項目是一個混合叢集:3×SolarTitan250工業燃氣輪機9×SolarTitan130工業燃氣輪機3×SiemensSGT-400工業燃氣輪機15×Caterpillar3520快速啟動發動機圍牆內的銘牌容量為306兆瓦:輪機約260兆瓦,發動機46兆瓦。正常情況下,一部分工業燃氣輪機穩定運行以提供200兆瓦電力。如果一兩台工業燃氣輪機跳閘,活塞機叢集可以快速爬坡來填補缺口。額外的工業燃氣輪機可用於維護切換。這支援了專供式的N+1+1設計。然而,與前兩個例子相比,這是一個拼湊的實現方案。輪機型號不匹配,使用的發動機是較小的1800轉/分鐘高速燃氣發動機。這表明Williams優先考慮了供電時間,而非標準化的維護計畫。匹配電網正常執行階段間:過度建設、電網作為備份、電池為了匹配電網提供的"三個9"的正常執行階段間,現場發電廠必須為冗餘而"過度建設"。這通常是現場發電成本相對於電網較高的關鍵原因。冗餘給營運商帶來了新的難題:系統規模與"過度建設"比率之間存在權衡。雖然H級和F級輪機比航改型輪機更節能,但更高的冗餘需求意味著,如果設計不當,基於重型輪機的孤島系統可能會產生比航改型輪機更高的電力成本。必須考慮其他解決方案,而不是簡單的"過度建設",例如使用較小的輪機作為"備用"、電池,甚至電網連接。為了理解過度建設比率,我們可以用一個實際例子。在德克薩斯州沙克爾福德縣,VoltaGrid用2.3吉瓦的顏巴赫系統為1.4吉瓦的資料中心供電,過度建設率為64%。我們可以這樣分解:峰值PUE過度建設:與德克薩斯州典型的電網連接站點一樣,存在1.4x-1.5x的過度配置,主要與冷卻相關。還有額外的10-17%過度建設與冗餘相關。對於H/F級系統,簡單的過度建設通常不是最經濟的路徑。一些營運商考慮僅為備用目的連接電網——但這引入了互聯時間表的挑戰,並使選址過程複雜化。也可以建造一個巨大的電池工廠——如下面xAI的Colossus2部署所示——但這既昂貴又不切實際,因為典型的儲存持續時間只有2-4小時。最後,可以使用不同尺寸的輪機和發動機組合,H級聯合循環作為基荷運行,工業燃氣輪機/航改型輪機/活塞機作為備用——但這通常比電網連接或2-4小時的電池儲能系統更昂貴。管理負載波動AI計算負載,特別是訓練負載,是高度可變的,包括亞秒級的兆瓦級功率激增和驟降。電力系統慣性越大,就越能在維持電力頻率的同時管理短期功率波動。如果頻率偏離50赫茲或60赫茲的基線太遠,功率波動可能導致斷路器跳閘或裝置故障。所有熱力發電機都有一定的慣性,因為它們是通過旋轉的重物發電的。然而,開發者可以通過輔助系統增加慣性:同步調相機–這些本質上是作為電動機旋轉起來的發電機,沒有機械負載。一旦與電網同步,它們只消耗少量損耗。在突然的負載變化期間,它們吸收或供應無功功率,穩定電壓並增加短時慣性。它們的能量容量很小,因此只能幫助幾秒鐘,而不是幾分鐘。飛輪 –這些增加了一個真正的旋轉能量緩衝器。一個電動-發電機組耦合到一個大飛輪,並連接在發電和負載之間。飛輪可以注入或吸收有功功率(而不僅僅是無功功率)5-30秒,平滑瞬態、發電機跳閘和電壓驟降。例如,Bergen通過一家附屬供應商將飛輪與其發動機打包提供。電池儲能系統 –電池可以像負載變化一樣快速爬坡,通過高速控制提供"合成慣性",如前一篇文章所述。它們在頻率調節方面表現出色,但由於逆變器電流受限,它們對無功功率和故障電流的貢獻不如同步電機。VoltaGrid將活塞機叢集與同步調相機結合使用。BergenEngines已經通過同一母公司旗下的供應商銷售帶有飛輪的發動機。發動機製造商瓦錫蘭有一個電池儲能部門,他們可能會將其與資料中心項目捆綁。Bloom聲稱其燃料電池系統不需要任何裝置來管理負載波動。具體使用的系統取決於當地的限制條件,但主要取決於供應商偏好使用什麼。xAI偏好使用特斯拉的Megapack進行備份和處理負載波動。Megapacks+MACROHARD我們是否能夠建造足夠的燃氣發電廠來為AI供電?目前燃氣發電系統的交貨期是前所未有的。歷史上,燃氣輪機製造商平均只接受工廠發貨前20個月的訂單,但現在三大製造商GEVernova、西門子能源和三菱動力正在接受2028年和2029年的訂單,甚至還有之後不可退款的預訂席位。每個公開的燃氣系統製造商都報告了資料中心需求的增長,但大多數都反應謹慎,而不是全面擴張。GEVernova已承諾將產量提高到24吉瓦/年,但這只是回到其2007-2016年的水平。他們正在投資新員工和機械,但不打算增加工廠佔地面積。西門子能源也計畫投資生產而不增加工廠佔地面積。相反,他們優先考慮價格上漲,依賴服務收入,並優先考慮投資回報期短的投資。他們計畫到2028-30年將年產能從約20吉瓦擴大到>30吉瓦。三菱重工在最近的財報電話會議上表示計畫將燃氣輪機和聯合循環產量增加30%,這與彭博社關於計畫到2027年將產能翻倍的報導相矛盾。卡特彼勒計畫在2024年至2030年間將發動機產量翻倍,渦輪機產量增加2.5倍,但其Solar品牌渦輪機在2020-2024年間平均年產量約為600兆瓦,2022年峰值產量為1.2吉瓦。瓦錫蘭只承諾漸進式擴張,寧願"觀望"資料中心需求,並保持與海運客戶的關係。在主要的燃氣發電機製造商中,只有BloomEnergy、卡特彼勒和新進入者BoomSupersonic宣佈了雄心勃勃的擴張計畫。BloomEnergy聲稱到2026年底可以達到2吉瓦/年的生產能力,BoomSupersonic計畫到2028年底達到2吉瓦/年。乍看之下,儘管需求激增,但似乎很少有製造商完全接受"通用人工智慧信念"。這種猶豫部分反映了真實的製造限制;大部分則反映了對燃氣發電行業30年繁榮-蕭條周期的創傷後應激障礙。值得注意的是,最嚴重的瓶頸在重型輪機。航改型輪機、工業燃氣輪機和活塞機系統的限制較少。燃氣輪機的兩次繁榮-蕭條周期自90年代中期以來,燃氣輪機行業經歷了兩次繁榮-蕭條周期。第一次繁榮,在1997年至2002年間,由美國部分地區的電力放鬆管制推動,這吸引了新公司成為獨立電力生產商,以及(諷刺的是)由Huber和Mills的論文"TheInternetBeginswithCoal"所普及的、來自網際網路泡沫對電力需求增長的高預期。像Calpine、Duke、Williams和NRG這樣的大型企業大批訂購輪機,將GEVernova和西門子能源的訂單量推至頂峰。GE在2001年出貨了超過60吉瓦的燃氣輪機;西門子在2002年達到20+吉瓦的峰值。崩盤來得很快。網際網路泡沫破裂,安然醜聞動搖了電力交易業務,訂單枯竭,使GE和西門子陷入了長達數年的製造寒冬。燃氣輪機行業的第二次"繁榮"更像是一種訂單穩定的狀態,而非真正的繁榮。在2006年至2016年間,GE平均每年出貨約20吉瓦輪機,西門子約15吉瓦/年。然後,在2017年至2022年間,市場徹底崩潰,GE和西門子的年產量都降至10吉瓦以下的歷史低點。這兩家大公司既有對Y2K燃氣輪機繁榮期的機構記憶,也有對銷售處於歷史低點的近期記憶。值得注意的是,三菱重工在很大程度上避開了這些繁榮-蕭條周期。直到最近,三菱重工銷售的硬體數量僅佔GEVernova和西門子能源的一小部分。它成為"三大"之一,僅僅是因為更大的公司已縮減到其銷售規模,而阿爾斯通能源和西屋等其他參與者已經關閉或被收購。這可能部分解釋了MHI對擴張的興趣,儘管其所謂的翻倍計畫在財報電話會議上並未得到證實。供應鏈瓶頸然而,在燃氣輪機內部,即使保證未來需求高漲,也可能不會推動增加產量,因為燃氣輪機核心機的生產和物流存在內部瓶頸。燃氣輪機葉片和靜葉是現代工業文明技術能力的巔峰之一,需要極其高品質的冶金和加工技術才能正確製造。渦輪葉片和靜葉是現代工業製造的最苛刻的部件之一。製造它們需要非凡的冶金和加工精度。因此,西方的生產集中在四家公司:PrecisionCastpartsCorporation、HowmetAerospace、ConsolidatedPrecisionProducts、Doncasters。這些公司不僅供應工業和電力燃氣輪機,還供應民用和軍用噴氣發動機。除CPP外,其他公司都有垂直整合的金屬供應,但它們的規模只是其客戶的一小部分,因此更容易受到市場衝擊的影響。第二次燃氣輪機蕭條與COVID導致航空航天訂單下滑同時發生,這意味著這些公司最近受到了相當大的打擊。需求增加不僅需要這些公司僱用更多的專業員工,還需要考慮釔、錸、單晶鎳和鈷等材料的供應鏈。更重要的是,他們可能不願意進行這些投資,因為如果跟隨AI泡沫跌落懸崖,他們損失最大。此外,重型燃氣輪機的生產受到物流限制。僅輪機核心就是300-500噸的系統,需要專門的駁船、鐵路貨車和卡車拖車運輸。即使在獲得許可後,重型燃氣輪機也需要24-30個月來建造、安裝和測試,然後才能運行。售後市場的OEM可以圍繞翻新的核心建造新電廠,但移動和整合這些核心仍然是一個重大挑戰。這些限制對於航改型輪機和工業燃氣輪機來說不那麼嚴重,它們小到可以用標準集裝箱或常規拖車運輸。新進入者來救援:從飛機到輪船?通常,在受限時期,許多聰明的公司都在探索解決方案。ProEnergy是最早帶來創新的公司之一。其PE6000項目改造了來自波音747的CF6-80C2發動機核心,並提供與GEVernovaLM6000規格和封裝幾乎相同的營運航改型燃氣輪機。最近,BoomSupersonic宣佈開發基於其超音速噴氣發動機設計的Superpower航改型燃氣輪機。其提議的外形與GEVernovaLM2500非常相似,並且運行原理相同:一台可以裝入一個集裝箱的小型噴氣發動機(輔助進氣、控制和排氣裝置裝入另外1-2個集裝箱)。該發動機的測試仍在進行中,但初步宣傳規格顯示,即使在高溫環境空氣下,Superpower每單元也能產生42兆瓦電力。首批1.2吉瓦的產量已被Crusoe預訂,目標是在2027年達到200兆瓦產量,2028年達到1吉瓦,2029年達到2吉瓦。初始訂單價格表明硬體成本為$1,000/kW,但這個數字不包括平衡系統、運輸或偵錯費用,不應直接與全包成本資料進行比較。BoomSupersonic擁有葉片和靜葉生產的垂直整合能力,但依賴外部供應商進行冶金,這可能仍然是一個供應鏈瓶頸。我們還沒有看到其他公司加入改裝的行列。然而,中速發動機主要由擁有長期造船發動機製造經驗的公司製造——例如瓦錫蘭。事實上,它們基本上是相同的發動機,可以在同一設施中製造。我們什麼時候會看到舊的船用發動機被改裝來為資料中心供電?現在讓我們轉向比較不同的解決方案和製造商。我們還將分析現場發電的經濟性和總擁有成本,並將其與美國電網進行比較。新進入者來救援:從飛機到輪船?通常,在供應受限時期,許多聰明的公司會探索解決方案。ProEnergy是最早帶來創新的公司之一。其PE6000項目改進了來自波音747的CF6-80C2發動機核心,生產出運行特性與GEVernovaLM6000幾乎相同的航改型燃氣輪機。最近,BoomSupersonic宣佈開發基於其超音速噴氣發動機設計的Superpower航改型燃氣輪機。其提出的外形與GEVernovaLM2500極為相似,並遵循相同原理:一個可以裝入單個集裝箱的小型噴氣發動機(輔助進氣、控制和排氣裝置則裝入另外1-2個集裝箱)。該發動機的測試仍在進行中,但初步宣傳規格顯示,Superpower每單元可產生42兆瓦電力,即使在環境空氣溫度較高時也是如此。首批1.2吉瓦的產量已由Crusoe預訂,目標是在2027年實現200兆瓦產量,2028年1吉瓦,2029年2吉瓦。初始訂單價格暗示硬體成本約為每千瓦1000美元,但此數字不包括平衡系統裝置、運輸或偵錯費用,不應直接與全包成本資料比較。BoomSupersonic已垂直整合了葉片和靜葉的生產,但依賴外部供應商提供冶金材料,這可能仍是一個供應鏈瓶頸。我們尚未看到其他公司加入改裝的行列。然而,中速發動機主要由擁有長期造船發動機製造經驗的公司製造——例如瓦錫蘭。實際上,它們基本是相同的發動機,可以在同一設施中製造。我們何時會看到舊的船用發動機被改造用於為資料中心供電?現在,讓我們將注意力轉向比較不同的解決方案和製造商。我們還將分析現場發電的經濟性和總擁有成本,並將其與美國電網進行比較。現場發電經濟性分析現場發電的關鍵經濟問題是:與從電網購電相比,其總擁有成本是高是低?我們的分析表明,對於絕大多數資料中心而言,現場發電更昂貴。在美國大部分地區,大型工業使用者的電網供電價格在每兆瓦時40至80美元之間。對於新建的聯合循環燃氣輪機發電廠,若其資本成本能分攤到20年以上,平準化度電成本可低至每兆瓦時40至55美元(不包括輸電和配電成本)。而現場發電的成本則高出許多:航改型輪機/工業燃氣輪機:平準化度電成本約為每兆瓦時80至120美元。活塞發動機:平準化度電成本約為每兆瓦時90至130美元。燃料電池:平準化度電成本約為每兆瓦時120至180美元。主要驅動因素包括:資本成本高:現場發電機組的每千瓦資本支出通常是公用事業規模燃氣輪機的兩到三倍。燃料成本:雖然燃料成本本身大致相同,但現場小型機組的效率通常低於大型聯合循環燃氣輪機,這意味著每單位發電消耗更多燃料。維運成本:分佈式發電機組的維護和營運成本更高,尤其是當它們需要頻繁啟停或低負載執行階段。冗餘成本:如上所述,為匹配電網可靠性而進行的過度建設會顯著增加資本支出。然而,將現場發電視為"更昂貴"的選項,可能會錯過其核心價值主張:時間價值。對於AI工作負載,推遲上線六個月的損失可達數十億美元。因此,即使現場發電的平準化度電成本高出50%,只要能提前數月甚至數年上線,其淨現值也可能是正數。這就是為什麼xAI、OpenAI、Crusoe等公司願意支付溢價:他們是在購買時間。裝置與製造商定位基於我們的資料中心模型跟蹤,我們對主要參與者的市場定位看法如下:GEVernova:憑藉其LM系列航改型輪機和HA級重型輪機,佔據了高端市場。他們受益於品牌認知度、廣泛的服務網路以及在快速部署解決方案方面的早期成功。然而,其交貨期最長,可能將部分需求推送給競爭對手。西門子能源:在工業燃氣輪機和中型航改型輪機方面實力強大。他們的SGT-800是資料中心領域的流行選擇。與GE類似,他們面臨交貨期延長的問題,但可能更靈活地應對中型項目。三菱重工:作為相對較晚進入資料中心領域的參與者,他們可能憑藉可用的產能和積極的定價獲得市場份額。其J系列輪機效率高,但在快速部署解決方案方面認知度較低。卡特彼勒/SolarTurbines:憑藉Titan和Saturn系列工業燃氣輪機,以及模組化、可運輸的解決方案,成為了關鍵參與者。他們受益於與xAI的早期合作,以及通過SolarisEnergyInfrastructure等合作夥伴提供的租賃模式。瓦錫蘭:在中速發動機市場佔據主導地位,並將其船舶專業知識應用於資料中心。他們提供可靠的基荷電力,但爬坡速度較慢,且對大規模部署眾多小型單元帶來的維運複雜性持謹慎態度。顏巴赫/INNIO集團:在高速發動機領域佔據領先地位,特別是通過與VoltaGrid的整合,提供"能源即服務"解決方案。他們最適合需要快速部署和營運靈活性的項目。BloomEnergy:在高密度城市區域或環境許可嚴格的地點具有獨特優勢。其部署速度是最大賣點,但高昂的成本限制了其廣泛採用。他們需要證明其長期可靠性和降低維護成本。BoomSupersonic:一個潛在的顛覆者。如果他們能如期交付Superpower輪機,並實現承諾的每千瓦1000美元的硬體成本,他們可能會從現有製造商手中奪取大量市場份額。然而,他們面臨執行風險,且尚未經過大規模驗證。斗山能源:作為H級輪機市場的新進入者,憑藉與xAI的大型訂單獲得了早期關注。他們需要建立可靠的服務和維護網路以贏得長期信任。未來展望現場發電並非一時風尚。我們預計,在美國電網大規模升級(這可能需要數十年)之前,現場發電將成為大型AI資料中心不可或缺的一部分。未來幾年,我們將看到以下趨勢:混合系統成為常態:資料中心將結合現場發電、電網連接和電池儲能,以最佳化成本、可靠性和可持續性。燃料多樣化:隨著氫能和可再生天然氣供應鏈的發展,現場發電機可能轉向低碳燃料,以應對環境監管和ESG壓力。標準化與模組化:裝置供應商將提供更多預配置、集裝箱化的發電解決方案,以進一步縮短部署時間。監管演變:空氣質量和排放法規將演變,可能為使用先進排放控制技術的現場發電提供快速通道許可。小型模組化反應堆的潛在角色:長期來看,下一代核能可能成為現場基荷電力的重要來源,但這可能要到2030年代後期。最終,AI對電力的無盡需求正在顛覆一個世紀以來集中式發電和輸電的模式。"自帶發電"的興起,標誌著電力行業向更分佈式、更模組化、以及速度優先的範式轉變。電網可能不會"死亡",但它肯定需要學會與這些自立自足的AI巨獸共存。對於那些能夠提供快速、可靠且具有成本競爭力的發電解決方案的供應商來說,一個巨大的機遇之窗已經打開。競爭才剛剛開始。 (invest wallstreet)
比特幣全網算力突破 1 ZH/s,單幣全成本抬升至 13.7 萬美元
2025 年 12 月,比特幣全網算力首次突破 1 ZH/s(ZettaHash)這一象徵性關口,網路安全成本進入新的量級區間。多項行業資料顯示,算力擴張正在顯著抬高單枚比特幣的生產成本,並加速礦業結構的出清過程。根據 CryptoRank 彙總的上市礦企財務資料,目前挖掘 1 枚比特幣的平均現金成本已上升至約 7.46 萬美元。若將礦機折舊、融資成本及股權激勵(SBC)計入在內,行業測算的全成本水平已接近 13.7–13.8 萬美元。成本抬升的直接結果,是回本周期被顯著拉長。以當前算力與難度水平估算,即便在效率較高的礦場環境中,單台礦機的投資回收周期也已延伸至 1200 天以上。隨著融資成本上行,這一周期仍存在進一步拉長的可能。算力競爭加劇正在改變礦業參與者的結構。中小礦工在電價、資本成本與裝置效率方面處於明顯劣勢,退出速度加快;而頭部礦企則通過規模化部署、長期電力合約與財務工程手段維持邊際盈利空間。與此同時,部分上市礦企開始加速向 AI 算力託管、資料中心基礎設施等相關業務延伸,以分散單一挖礦模式下的現金流波動風險。從網路層面看,算力突破 1 ZH/s 意味著比特幣系統的安全性與攻擊成本同步抬升。對潛在攻擊者而言,維持 51% 算力所需的資本與能源投入已進入難以企及的區間;而對網路內部參與者而言,安全性的提升正在以更高的長期資本約束為代價。算力所代表的並非短期價格訊號,而是一種持續性的結構成本。當算力與全成本同步抬升,比特幣的“安全性”與“生產門檻”被重新定價,行業進入以資本效率、能源獲取能力和規模優勢為核心變數的新階段。 (方到)
甲骨文百億項目融資突然「告吹」,美國AI泡沫恐慌來襲?
美國時間12月中旬,有報導稱,甲骨文在美國資料中心項目的主要支持者Blue Owl Capital將不會資助密歇根州一個價值100億美元的資料中心。這被視為百億項目融資“告吹”,該消息迅速放大並引發市場對AI泡沫的擔憂。實際上,自9月初見頂以來,甲骨文股價已下跌近45%。作為近兩年推動美股牛市的關鍵因素,AI行業對於明年市場的走向依然至關重要。難道,美國此輪 AI 基建周期已經提前來到了拐點?甲骨文的AI故事不香了?7 個月前,甲骨文官方帳號在社交媒體上發佈了一段頗具象徵意味的視訊。畫面中,時任甲骨文雲基礎設施負責人 Clay Magouyrk 正帶領 OpenAI CEO 山姆·奧特曼(Sam Altman)參觀德克薩斯州阿比林(Abilene)首個“星際之門(Stargate)”項目現場。Magouyrk 對奧特曼形容道:“這裡就像是小孩子在玩很大的玩具。”甲骨文官號配文稱:“我們正在建設全球最大的 AI 訓練設施。”當時,多家媒體援引知情人士稱,OpenAI 未來幾年將向甲骨文支付千億美元規模的算力費用。圖:2025年4月,OpenAI CEO奧特曼造訪甲骨文資料中心現場這一敘事迅速傳導至資本市場。甲骨文股價從 4 月 21 日的約 122 美元一路上漲,在 9 月初一度衝至 320 美元以上,也讓 81 歲的聯合創始人埃裡森以約 3832 億美元的身家,短暫超過馬斯克,重回世界首富寶座。幾乎在同一時期,主導雲端運算基建項目的 Clay Magouyrk 被提拔為甲骨文聯席 CEO。但進入年末,隨著投資者逐漸將目光從“故事規模”轉向“兌現這些承諾所需付出的成本”,甲骨文股價開始回吐此前全部漲幅。問題不再是 AI 有沒有前景,而是這條路到底要花多少錢、多久才能回本?信用市場最先“翻臉”曾因做空安然成名的大空頭吉姆·查諾斯(Jim Chanos),在 12 月初毫不避諱地公開炮轟甲骨文資產負債表擴張過快,正逼近財務承壓區間。他在播客採訪中直言,作為五大超大規模雲廠商之一,甲骨文為了追趕同行而採取了激進投資策略,但新增資本投入並未帶來相應的利潤回報。“如果用新增營業利潤除以新增投入資本來計算,甲骨文的回報率只有大約 8.5%,而微軟接近 40%。”查諾斯指出,這意味著甲骨文目前無法收回增量資本成本。在他看來,更大的不確定性來自 AI 變現時間表本身。市場普遍假設 AI 的貨幣化拐點將在 2027到2028 年出現,但如果這一節點被推遲至 2030 年,甚至最終無法兌現,甲骨文將面臨根本性的財務挑戰。這並不是對 AI 技術前景的否定,而是對當下資本配置邏輯的質疑。這一點,在甲骨文 12 月初的財報電話會上被體現得更加直接。多位分析師反覆追問:甲骨文在 AI 上到底要花多少錢?但管理層並未給出清晰的數字答案。私募信貸開始轉向?與此同時,私募信貸市場也在重新定價風險。紐約投資公司 Blue Owl 過去是甲骨文多項大型資料中心項目中的關鍵資本方。其典型做法是通過設立特殊目的公司(SPV),引入銀行融資,並以甲骨文的長期租約作為現金流支撐,從而幫助甲骨文實現“資產負債表外”的擴張。在德州阿比林、新墨西哥等項目中,這一模式運轉順暢。但密歇根項目成為分水嶺。隨著市場對 AI 支出規模、甲骨文自身債務水平以及項目執行風險的態度發生變化,貸款方開始要求更嚴格的租賃和債務條款。在融資成本上升、槓桿空間收緊的情況下,該項目對 Blue Owl 的財務吸引力明顯下降,最終導致其在放款前選擇退出。儘管甲骨文緊急“滅火”稱,項目的股權交易最終談判進展按計畫進行,整體推進符合預期,但市場的擔憂已經被點燃。OpenAI能否付得起錢?另一條逐漸被市場放大的質疑,來自OpenAI算力訂單的可靠性。摩根大通分析師埃麗卡·斯皮爾在 12 月 15 日關於甲骨文的研報標題為“如果你建造它,他們(OpenAI)會付錢嗎?”投行D.A.Davidson 科技研究主管分析師 Gil Luria 在 12 月 12 日的一份報告中直言,“鑑於 OpenAI 不太可能兌現其 3000 億美元的承諾,我們認為甲骨文最好的做法是主動重組該合同,以更負責任地部署資本,而不是假裝擁有 5230 億美元的剩餘履約義務( RPO)。”剩餘履約義務(RPO)指的是企業已簽訂的、但尚未確認為收入的合同銷售。換句話說,OpenAI承諾在未來五年向甲骨文支付3000億美元購買算力,但並非一定發生。截至 11 月 30 日,甲骨文的 RPO 已躍升至 5230 億美元。“OpenAI 誤導了甲骨文,甲骨文又誤導了投資人。” Gil Luria 在接受採訪時表示,儘管甲骨文被頻繁提及為 OpenAI 的重要基礎設施合作方,但在實際算力分配、合同結構以及未來擴展中,其最終能分得多少,仍缺乏透明度。11月初,OpenAI 先後與微軟、亞馬遜簽署新的合作協議,算力來源呈現明顯的多元化趨勢,讓甲骨文在OpenAI生態中的位置變數增加。更重要的是,OpenAI 在AI需求中的位置也處在變動中。一來,隨著Google等資金實力更雄厚的競爭對手加速追趕,新一代 Gemini 模型獲得市場好評,奧特曼本人在12月初已經通過公司內部信發出“紅色警報”,那怕推遲其他產品的開發,也要全力押注GPT在AI競爭中保持身位。也就是說,在技術路線快速演進的背景下,OpenAI 是否能夠持續保持領先,並不確定。二來,OpenAI 與晶片製造商輝達之間的協議仍懸而未決。兩家公司曾於 9 月 22 日宣佈簽署意向書,稱輝達將在多年內向OpenAI投資多達 1000 億美元,OpenAI 則購買數百萬輝達專用晶片用於其 AI 基礎設施。外界曾期待OpenAI會把輝達的投資轉手給甲骨文購買算力。但兩個多月過去了,協議仍未正式簽署。輝達在最新財報中表示,“並不保證任何投資會按預期條件完成,甚至根本不會完成。”AI競爭進入“現金流檢驗期”?甲骨文並非唯一重注 AI 的科技公司,但在這一輪投資周期中,卻處在對資本最為敏感的位置。在 AI 浪潮之前,甲骨文依賴高度可預測的現金流和約 70% 毛利率的傳統軟體業務,能夠支撐穩定回購與分紅。但 AI 投資打破了這一平衡。資料中心和算力基礎設施意味著資本高度前置、回報周期拉長,執行節奏成為關鍵變數。相比之下,微軟和Google擁有更強的現金流緩衝,更容易消化長期資本消耗。當資本已經投入、收入尚未兌現、利率仍處於高位時,市場開始重新評估,那家公司的資本結構,能夠承受更長時間的回報延遲。儘管公司已任命新的聯席 CEO,但是否繼續為 AI 承擔高強度投入,最終仍由創始人拉里·埃裡森拍板。Oracle 的英文原意是“神諭”。當 AI 投資進入結算階段,市場關心的也不再是預言是否宏大,而是誰能撐到預言兌現的那一天。 (新浪科技)
AI算力“逃離地球”?Google宣佈“追日者”計畫,2027年擬在太空部署AI資料中心
Google提出“太空資料中心”設想,試圖以太陽能驅動的衛星叢集緩解AI算力與能源瓶頸。但高昂成本、維護困難、軌道碰撞與監管缺失構成重大挑戰。在微軟水下項目受挫後,這一計畫更像對AI無限擴張的激進押注。Google正在嘗試一項突破性的基礎設施實驗,計畫將高能耗的AI資料中心轉移至太空,以應對地面電力短缺和規劃受阻的瓶頸。據英國《金融時報》17日報導,Google披露了名為“Project Suncatcher”的計畫,旨在建構一個由太陽能驅動的太空資料中心原型。該項目並不是建立一個單一的軌道巨石,而是由81顆搭載AI晶片的衛星組成的叢集,它們將在太空中協同飛行並處理資料。作為該計畫的第一步,Google將與衛星公司Planet合作,預計於2027年向近地軌道發射兩顆原型衛星。此舉的核心邏輯在於利用太空獨特的環境優勢——特別是太陽同步軌道提供的近乎恆定的太陽能,以及免除在地面建設所需的土地和水資源。對於投資者而言,這釋放了一個明確的訊號:儘管面臨物理世界的限制,科技行業仍試圖證明AI具備無限的可擴展性。如果Gemini等AI模型的查詢能夠在太空中處理並將結果傳回地球,將徹底改變算力基礎設施的成本結構與能源依賴。然而,這一宏大構想正面臨嚴峻的技術可行性與經濟性拷問。在微軟此前結束其海底資料中心項目(Project Natick)後,業界對極端環境下資料中心的維護難度與成本效益持謹慎態度。除了高昂的發射與維護成本,太空環境的輻射、碎片撞擊風險以及日益擁擠的軌道交通,都為這一“上天”計畫的前景蒙上了陰影。01 逃離地球:Google的“追日”計畫根據Google研究人員上個月發佈的預印本論文,Project Suncatcher設想在距離地球約650公里的太陽同步軌道上運行。該軌道能夠確保通過衛星搭載的太陽能電池板獲得近乎不間斷的電力供應,從而為高能耗的AI負載提供動力。與傳統地面資料中心不同,這一架構依賴於衛星群的協同工作。這些衛星不僅要處理計算任務,還需要在高速飛行中保持通訊。這一方案旨在規避地面資料中心面臨的諸多障礙,包括日益複雜的規劃審批程序、當地社區的反對,以及現有電網無法滿足AI極速擴張帶來的巨大能源缺口。據行業估算,AI所創造的能源需求已難以在地球現有的資源邊界內得到滿足。02 太空雷區:擁擠軌道的碰撞風險與技術挑戰儘管太空提供了無限的能源潛力,但其技術風險不容忽視。密歇根大學空間科學家Mojtaba Akhavan-Tafti指出,Google計畫使用的軌道也是近地軌道中最為擁擠的路徑之一。為了實現互聯互通,這些衛星之間的間距僅為100米至200米。Mojtaba Akhavan-Tafti警告稱,在如此近的距離下,軌道導航的誤差容限幾乎為零。一旦發生單次撞擊,不僅可能摧毀一顆衛星,還可能引發連鎖反應,導致整個衛星叢集毀滅,並向本已是“雷區”的軌道散佈數百萬塊碎片。歐洲航天局資料顯示,目前軌道上已有超過120萬塊尺寸超過1釐米的碎片,任何一塊都可能造成災難性破壞。隨著軌道交通激增,“凱斯勒效應”(Kessler effect)——即碎片引發連鎖碰撞導致軌道無法使用——的可能性正在上升。此外,Google的論文也承認,太空輻射會降解電子裝置並破壞資料。更為棘手的是,與地面設施不同,太空資料中心幾乎無法進行遠端硬體維護,如何處理故障硬體或報廢衛星仍是未解難題。03 微軟水下項目折戟與高昂的“上天” 成本在Google之前,微軟也曾探索過利用非常規環境解決資料中心散熱和能耗問題。2018年,微軟在蘇格蘭海岸沉入了一個名為Project Natick的水下資料中心。然而,據報導該項目已經結束,微軟且表示沒有進一步的海底計畫。相比於海底,在太空中建立資料中心的難度呈指數級增加。儘管火箭發射成本正在通過SpaceX等公司的努力不斷降低,但在這一階段,太空電力的單位成本與地面電力相比大致相當,並無顯著的成本優勢。當被問及具體置評時,Google方面僅引用了相關的預印本論文及部落格文章。04 科技巨頭的太空圈地運動?除了技術和成本障礙,該項目還引發了關於太空治理的擔憂。天文學家擔心,更多的衛星星座將進一步干擾科學觀測。目前地球周圍已有近1.6萬顆衛星在運行,其中近9000顆屬於馬斯克的Starlink網路,且還有1.5萬顆新衛星的計畫正在接受審查。Starlink已因反射光線干擾光學圖像以及無線電洩漏干擾射電天文學而受到詬病。目前的太空領域正逐漸成為Jeff Bezos和馬斯克等科技巨頭缺乏規則約束的競技場。Google的這一計畫不僅可能加劇光污染和無線電干擾,還暴露了針對太空這一公共資源的有效治理機制的缺失。對於市場而言,這既是一次展示AI無限潛力的豪賭,也是該行業在能源焦慮下“過度擴張”的隱喻。 (硬AI)
馬斯克暗示特斯拉、SpaceX、xAI深度融合時代即將到來
12月12日,特斯拉CEO馬斯克在X平台回覆一則帖文,僅以“Convergence”(融合)一詞回應。該帖文原作者展示了一段簡短動畫視訊,視訊中一顆衛星在軌道上緩緩展開太陽能陣列,其表面清晰標註特斯拉、SpaceX和xAI三大公司標誌,象徵馬斯克商業帝國三大支柱的技術深度融合——共同打造太空AI資料中心。這一概念的核心在於,利用太空無限太陽能和真空自然冷卻優勢,搭載特斯拉高效AI晶片、SpaceX星鏈衛星平台以及xAI的Grok大模型,實現大規模分佈式AI計算。SpaceX不僅提供星鏈的高頻寬雷射鏈路用於資料傳輸,還憑藉其火箭低成本、高頻次發射能力,將大量搭載AI計算模組的衛星快速送入軌道,成為融合體系中不可或缺的關鍵環節。馬斯克近期多次公開表示,未來3至5年內,太空AI系統將在成本、能效和規模上全面超越傳統地面資料中心。業內分析認為,馬斯克此舉直指全球AI基礎設施面臨的能源困境。當前,資料中心電力消耗已佔全球總用電量10%以上,而太空方案可徹底擺脫電網限制、土地約束和巨量冷卻需求。新一代星鏈衛星將支援低延遲全球計算網路,形成完整技術閉環。這一“Convergence”被視為馬斯克生態體系的戰略轉折點:SpaceX負責火箭發射、軌道部署與維護,特斯拉貢獻硬體實力,xAI提供核心智能模型。三者合力,不僅有望鞏固其在AI領域的絕對領先地位,還可能加速太空計算基礎設施的商業化處理程序,並為SpaceX明年的潛在IPO注入強大動力。馬斯克的這一回覆,預示著一個特斯拉、SpaceX與xAI深度融合的時代即將到來,或將深刻重塑全球AI與計算產業的未來格局。 (不看車)